情報量 (entropy)
情報量 - Wikipedia
情報量 - 脳科学辞典
エントロピー - Wikipedia$ S:=\frac Q T
H定理 - Wikipedia$ H=\int P(\log P)d^3 v=\lang\log P\rang
ボルツマンの原理 - Wikipedia
$ S=k\log W
Boltzmann 定數
熱力学第二法則 - Wikipedia
クラウジウスの定理 - Wikipedia$ \oint\frac{\delta Q}{T_{\rm surr}}=\Delta S\le 0
永久機関 - Wikipedia#第二種永久機関
Carnot cycle
不可逆性問題 - Wikipedia
時間の矢 - Wikipedia
Maxwell の惡魔
シャノンの情報源符号化定理 - Wikipedia
シャノンの通信路符号化定理 - Wikipedia
シャノン=ハートレーの定理 - Wikipedia
標本化定理 - Wikipedia
Kullback-Leibler 情報量 (Kullback-Leibler divergence。情報 divergence (information divergence)。情報利得 (information gain)。相對 entropy (relative entropy))
カルバック・ライブラー情報量 - Wikipedia
離散確率分布の場合は$ D_{\rm KL}(P||Q):=\sum_i P(i)\log\frac{P(i)}{Q(i)}
連續確率分布の場合は$ D_{\rm KL}(P||Q):=\int_{-\infty}^\infty p(x)\log\frac{p(x)}{q(x)}dx
自己情報量
情報量 - Wikipedia#自己情報量
$ I(X):=-\log P(X)
確率の乘法が量の加法になる$ f(pq)=f(p)+f(q)やうにすると對數函數になる
條件附き情報量
$ I(A|B):=-\log P(A|B)
Shannon 情報量 (平均情報量)
情報量 - Wikipedia#平均情報量(エントロピー)
$ H(P):=\sum_{A_i\in\Omega}P(A_i)I(A_i)=-\sum_{A_i\in\Omega}P(A_i)\log P(A_i)
負の對數尤度
相互情報量 (mutual information。傳達情報量 (transinformation))
相互情報量 - Wikipedia
$ I(X,Y):=\sum_{y\in{\cal Y}}\sum_{x\in{\cal X}}P(x,y)\log\frac{P(x,y)}{P(x)P(y)}=H(X)+H(Y)-H(X,Y)
結合 entropy (joint entropy)
結合エントロピー - Wikipedia
$ H(X,Y):=-\sum_{x\in X,y\in Y}P(x,y)\log P(x,y)
條件附き entropy
$ H(X|Y):=\sum_{x\in X,y\in Y}P(X=x,Y=y)\log P(X=x|Y=y)=H(X,Y)-H(Y)
條件附き確率
尤度関数 - Wikipedia#負の対数尤度
交差 entropy (cross entropy)$ H({\bf p},{\bf q}):=-\sum_i p_i\log q_i
交差エントロピー - Wikipedia
フィッシャー情報量 - Wikipedia
Fisher 情報行列
最大エントロピー原理 - Wikipedia
微分エントロピー - Wikipedia
von Neumann entropy
フォン・ノイマンエントロピー - Wikipedia
$ \rhoを密度行列として$ S:=-{\rm tr}(\rho\log\rho)
標準モルエントロピー - Wikipedia
配置エントロピー - Wikipedia
位相的エントロピー - Wikipedia
Колмогоровская 複雜性
断熱的到達可能性 - Wikipedia
等エントロピー過程 - Wikipedia
エントロピー的な力 - Wikipedia
エントロピー弾性 - Wikipedia
情報量規準